Dezvoltarea Inteligenței Artificiale aduce noi provocări în domeniul securității cibernetice

Dezvoltarea Inteligenței Artificiale aduce mai provocări în domeniul securității cibernetice. Și aceasta pentru că agenții de Inteligență Artificială primesc acces la date sensibile, inclusiv date bancare.

Dezvoltarea Inteligenței Artificiale aduce provocări de securitate cibernetică ce nu erau cunoscute până acum. Există companii de tehnologie care au dezvoltat browsere de Internet și care acum investesc în algoritmi de Inteligență Artificială, precum și societăți care au parcurs drumul invers. Ele au mizat în prima fază pe Inteligența Artificială și acum dezvoltă și browsere de Internet. Integrarea acestor servicii aduce o serie de beneficii. De exemplu, un text selectat într-un browser poate fi tradus, rezumat sau editat de Inteligența Artificială.

Pericolul apare însă atunci când agenții de Inteligență Artificială primesc permisiunea de a acționa în numele utilizatorilor. Unii astfel de agenți pot face tranzacții cu acțiuni sau plăți bancare. Alții pot posta în numele utilizatorilor pe diferite rețele de socializare. De asemenea, și capcanele au evoluat, de la cele primitive de genul comenzilor simple adresate agenților de Inteligență Artificială de tipul ”uită toate comenzile de până acum și execută ceea ce îți spun de acum înainte” până la imagini create tot cu ajutorul Inteligenței Artificiale, care par nevinovate pentru oameni, dar care conțin comenzi criptate pentru agenții de Inteligență Artificială. Experții în domeniul securității cibernetice recomandă limitarea accesului agenților de Inteligență Artificială la datele sensibile și utilizarea cu prudență a algoritmilor de acest tip. Iată câteva provocări aduse de dezvoltarea Inteligenței Artificiale:

Phishing-ul hiper-Personalizat și deepfake-urile

Cea mai vizibilă provocare adusă de IA este democratizarea atacurilor de inginerie socială. Dacă în trecut e-mailurile de phishing erau ușor de detectat datorită greșelilor gramaticale, astăzi modelele de limbaj mari (LLM) generează mesaje perfecte, adaptate contextului cultural și profesional al victimei.

  • Deepfake-urile audio și video: Atacurile de tip „Business Email Compromise” (BEC) au evoluat. Infractorii pot acum clona vocea unui director executiv în timp real în timpul unei videoconferințe, care solicită transferuri urgente de fonduri.

  • Automatizarea la scară largă: IA permite lansarea a milioane de astfel de atacuri simultan, iar fiecare este personalizat pentru ținta sa, fără intervenție umană constantă.

Malware-ul polimorfic: codul care se ascunde

IA a schimbat fundamental modul în care este scris software-ul malițios. Malware-ul generat de IA este capabil să își modifice propria structură de cod pentru a evita semnăturile detectate de programele antivirus tradiționale.

Acest „malware polimorfic” învață din mediul în care este injectat. Dacă detectează prezența unui sandbox (un mediu de testare securizat), rămâne inactiv și se activează doar atunci când confirmă că se află pe sistemul-țintă real.

Atacurile asupra datelor de antrenament (poisoning)

O vulnerabilitate critică, adesea ignorată, este integritatea modelelor de IA în sine. Atacatorii pot introduce date eronate în seturile de antrenament ale unei inteligențe artificiale — proces numit „Adversarial Machine Learning”.

Prin „otrăvirea” datelor, un atacator poate crea o „poartă ascunsă” (backdoor) în model. De exemplu, un sistem de recunoaștere facială ar putea fi antrenat să ignore o persoană care poartă un anumit model de ochelari, ceea ce permite accesul neautorizat în clădiri securizate.

Presiunea asupra profesioniștilor: „viteza gândirii”

Timpul de răspuns a devenit critic. Într-un atac orchestrat de IA, breșa se poate produce în câteva secunde, mult mai repede decât poate reacționa un analist uman.

Tip de Amenințare Impactul IA Provocare pentru Securitate
Phishing Creșterea realismului Detectarea imposibilă prin metode vizuale
Exploatarea Zero-Day Descoperirea rapidă a vulnerabilităților Necesitatea de patching automat
Atacuri DDoS Adaptarea fluxului de date în timp real Suprasolicitarea infrastructurii de filtrare

Apărarea: IA contra IA

Singura soluție viabilă în 2026 este utilizarea IA defensive. Sistemele moderne de detectare și răspuns (EDR/XDR) folosesc acum modele de „învățare nesupervizată” pentru a stabili un profil de comportament normal al rețelei. Orice abatere minimă este izolată instantaneu.

Spre deosebire de sistemele vechi, care căutau „viruși cunoscuți”, noua generație de apărare caută „anomalii de comportament”. Acest lucru permite oprirea unui atac chiar dacă tipul de malware folosit nu a mai fost întâlnit niciodată (Zero-Day).

Ziua Națională a Lecturii aduce activități diverse la Biblioteca Județeană „Octavian Goga” Cluj

 

Related posts

Leave a Comment